其他

政科前沿|祁玲玲:定量与定性之辩——美国政治学研究方法的融合趋势

2018-01-11 祁玲玲 政治科学研究

【摘 要】自20世纪80年代以来,国内社会科学诸学科经历恢复与重建,与西方学界的交流、互动日渐频繁。在新一轮西学东渐的大潮中,西方学界所推崇的定量分析法渐次为国内政治学界所接纳。当下学界重定量贬定性,扬量化抑质化,大有不可遏止之势。本文基于对过去30年来美国政治学界围绕方法论的论辩,客观呈现定量与定性研究方法的优劣,探讨当前方法论中定量定性研究的融合趋势,冀希国内学者审慎面对定量研究。

【关键词】定量研究;定性研究;混合研究法;政治学;美国

1994年,普林斯顿大学出版社发行了由加里·金(Gary King)、罗伯特·基欧汉(Robert O.Keohane)和西德尼·维伯(Sidney Verba)三位重量级的政治学者(以下简称KKV)合作的政治学方法论著作———《设计社会调查》。此书一出版立即成为政治学研究方法演进中具有分水岭意义的著作。尽管书中开篇指出定性和定量的研究方法在解释社会现象的逻辑层面上一脉相承且相互补给,但此书被视为把量化方法全面推入美国政治学主流方法的浓重一笔,成为采用定量研究的政治学者的方法论“圣经”。此后,关于方法论的争辩被认为进入了“后KKV时代”(post-KKVera),掀起了前所未有的关于定量与定性研究方法的激烈争论。10年后,一本汇集了当前美国政治学界诸多重要学者论文的方法论著作《重新审视社会调查》出版了。此书的目的在于对定量研究的主流地位发起挑战,对量化研究提出尖锐批判,主张政治学研究中方法论的多元化。与此同时,诞生了相当一大批反思KKV、重新审视定性分析的文章。2009年,《设计社会调研》的作者之一罗伯特·基欧汉也开始反思量化研究的局限。他承认,在展示变量与自变量的因果关系方面,定性的案例分析和叙事性分析有着更胜一筹的优势。在激烈的争辩之后,政治学界很快出现了思路更为宽阔且包容的走向,主张方法论的融合、架构精致的混合分析方法论文章不但得以进入《美国政治学评论》这样的顶级期刊,而且很快成为高引文章,迅速被运用于政治学期刊论文著作、博士论文、研究生的教学大纲,等等。在KKV著作出版20年后的今天,政治学界关于定量定性研究方法的深入讨论使得学者们对政治学方法的认知更为透彻,尽管辩论仍在继续,但也不乏共识,KKV一统天下的地位正在逐渐式微,方法论的融合与多元的趋势不可阻挡,虽然单一方法论仍然被认为还有着不可替代的价值。

一、定量研究的强势崛起

2003年,美国政治学学会旗下的《政治科学与政策》(Political Science&Politics)出版了一个专辑,以统计的方式对20世纪70年代以来美国政治学研究方法进行摸底。七个顶级的刊物,全美的政治学博士学科,以及美国政治、比较政治学和国际政治三个方向的数据显示,量化统计的方法一直是刊出文章的主流,约占65%,而且在90年代后期后呈现了明显的上升趋势,尤其是《美国政治学评论》上采用量化统计方法的文章高达80%以上。就不同领域而言,政治方向的论文90%采取量化研究方法,国际政治和比较政治学相对略低,但在过去20年内也呈现了明显的上升之势。与此相对应,案例和定性分析期刊论文从1975年的12%降至1985年的7%,到1999—2000年只剩下1%。从全美前57个政治学博士点的培养模式来看,66%的博士课程要求必修统计量化课程,其中56%以上要求至少修两门课,而只有9%要求必修定性研究方法论课程。对于量化技术的掌握几乎已经成为职业生存、进入主流研究领域的必要条件。定量研究的强势、政治学研究的方法论缺乏多元的现象引发了诸多学者的担忧。

定量研究就是运用数字、线性回归等相关的统计学技术进行因果关系推断与解释的研究方法。根据KKV,一个规范的实证研究必须遵循一个稳定的框架,首先要提炼一个有意义的研究问题,然后运用恰当的理论给出学理上的因果假设,再通过选择样本、收集数据,最终给出解释性和因果性经验型的验证。理论上讲,这个框架对定性和定量研究都适合。两者的区别起始于第三步,即样本的选择和相关数据的收集。通常意义上的定量研究是指大样本研究(Large-N Studies),定性研究则指小样本的深度挖掘(Small-N Studies),后者的N可以小至1,即个案分析,而N=2或3时,通常称为比较分析(comparative analysis)。不过,大样本研究与小样本研究的不同,更重要的是背后分析逻辑的差异。大样本分析是以变量为导向(variable-oriented)的分析逻辑,即要在对大量样本收集数据中抽象出理论所指的诸多自变量和应变量,而后用统计的方法来检测自变量和应变量之间可能的因果关系。相对格式化且公开的定量分析的过程便于复制检验过程,看起来更具科学性。更重要的是,撇开具体的统计学技术问题,把研究议题放入大量的样本中来考察,是对因果关系可否进行普遍性的推及(generalization)的检验。这被视为大样本分析最重要的优势,因为理论上自变量和应变量之间的因果关系若通不过大样本检验是无法进行一般性的推断的。如果两个变量之间的关系缺失一般性,理论假设的因果关系就得不到实证支撑,理论和经验的脱节要么需要更为精确的实证验证,要么就面临理论崩溃之虞。

尽管定量分析在理想状态下对理论的一般性检验具有逻辑上的优越,但纵观定量分析的整个过程,从把涉及的概念统统量化为数字,在大量样本中进行统计计算,到推断出因果结论,每个环节都可能出现诸多问题,使得推断出的所谓一般性因果关系值得质疑。对于定量分析的抨击就是围绕这些环节展开的。

二、定量研究中概念衡量的困境

进行政治学实证研究的关键一步就是对于概念的描述性测量(des-criptive inference),这是理论和实证相衔接的关键。有效衡量所讨论的概念是定量和定性分析共同面对的问题,只是两者采用不同的方式:后者往往采用相对模糊的表述,如“高”“低”“多”“少”;而前者采用精确打分的方式进行区分,如“A国民主得分为2”“B国为7”等。不同于自然科学领域中像“温度”“体积”这些概念的简洁明了,社会科学中有很多概念即使被广为使用,但内涵大有争议。当政治学的定性研究者们还在争论一些重要概念的内涵时,却发现定量研究的同行们已经开始用数字描述,这些争执在整齐划一的数字里烟消云散了。因此,量化的有效性(measurement validity),即这些量化指标是否准确地反映政治学概念的内涵以及分析对象是否被恰当地评估得分,成为对定量研究最直接的拷问。

下面以政治学里重要的一个概念“民主”为例,看其是如何被量化以及可能出现的问题。量化民主实质考察的是“民主度”(the level of democracy),各国在民主度上的差异是该命题解释的对象。现有的量化民主的数据库可谓纷繁。以Polity IV为例,该数据库以如下方式操作民主概念。一个成熟的民主至少表现在三个指标上:(1)政治参与自由开放且具有实质意义的竞争;(2)国家行政部门人选(如总统)来自民选;(3)对于行政机关领导的权力要有真正意义的牵制。然后又将三个指标细化为一系列次指标,例如,一国要在选举的竞争性指标上得2分,必须要做到行政机构的人选在两党或多党的候选人中通过竞争性选举而产生;如果具有双重的行政机构,其中之一由继承或指定而产生,那么只能得1分。这些明确且易于操作的指标实际上存在诸多的问题。

首先,民主概念被如此操作化是否合理?众所周知,民主是一个从古希腊就开始热烈争论的概念,相关的思辨与研究不计其数。如此大刀阔斧地把对这个复杂概念的争论简化为几个指标是否击中了现代民主的最核心内涵呢?这些指标是否存在西方选举民主的偏见呢?这样整齐划一的衡量是否存在概念过度延伸问题(conceptual stretching)呢?诸如此类的问题接踵而来。而实际上,关于民主的名目繁多的数据库对概念的操作化定义五花八门,数据库之间虽然相关度较高,但不同概念定义下,具体编码标准与方式还是存在较大差异。不过,不管如何具体定义民主,都是采取了类似的就简去繁的操作方式,这种武断的方式对于擅长将概念阐释得翔实而具体的传统定性研究者来说是莫大的挑战。其次,操作化过程中的准确性问题也值得考量。例如,Polity IV数据中另一个关键词是“竞争性选举”。按照该数据库的给分,博茨瓦纳应该是一个运行得相当不错的民主国家,但如果考察该国的选举,根本无竞争性可言,1974—2009年间的选举,博茨瓦纳民主党(BDP,Botswana Democratic Party)所占的席位比重基本都维持在80%以上,最低的1994年也达到了67%。实际上,类似的问题在所有人工编码的数据库中都存在,甚至每一个概念的每一个指标都会涉及。但一旦进入定量研究的标准化进程,刻板数字背后的诸多问题都被掩盖,如果无法接受量化操作过程中某些原则的妥协或变通,那么受制于这些数据库的定量研究者们基本上寸步难行,而正是这些变通在定性研究者看来是不合适的。再次,如何诠释具体数值的内涵也是一个大问题。因为操作化民主这样的复杂概念往往包含了很多进一步细化的指标,不同国家可能最后获得类似或完全一致的分值。例如,尼加拉瓜、韩国和1990—1999年的保加利亚三国的“民主度”分值均为18,但显然这几个国家民主发展的具体背景及状况相去甚远。进一步质问,比它们高一分或者低一分的那些国家真的存在与他们之间所谓的“等距”差别吗?这些丰富多元的民主发展呈现的差异最终被湮没在数据库中,归入了统计模型的计算。

对于初始进入量化研究领域的学生或者坚定的定性方法论学者,首先会对这些量化概念存有诸多困惑,以上呈现的问题并不复杂甚至显而易见。但问题是,这样的缺陷是否足以否定定量研究作为整体的方法论?这一方法在政治学界以及整个社会科学领域的流行难道只是个谬误?追溯起来,给予一个概念精确衡量的初衷并非坏事,操作化技术也大可在辩论中不断提升,更多数字背后的诠释可以加深理解最后的因果关系。

三、样本、统计模型与因果关系的不确定性

在定量研究中,与量化概念一并进行的是样本选择,尔后进入统计模型的计算。定量研究者们孜孜以求的就是KKV讨论的“平均因果效应”(mean causal effect,beta)。不过,准确的估算值Beta系数的获得受制于一系列因素,除去以上讨论的变量的衡量谬误等,还包括诸多问题———各式类型的样本选取偏差(selection bias)、统计模型错定(model misspecification)、因果关系中的内生性问题(endogeneity)、变量的交互作用(interactive effect),等等。当然,如果涉及实验方法,从实验设计开始,每一个指标数据收集的环节都可能直接影响最终的结论。其中,所涉及的方法论内容几乎贯穿了一个政治学定量研究的博士生方法论训练的全过程。以“现代化理论”(modernization theory)为例,可大体反映定量研究有可能出现的因果解释的争议甚至谬误。

1959年,李普赛特发表题为《民主的社会前提:经济发展与政治合法性》的文章,开启了马拉松式的关于经济发展与民主之间关系的理论争论与实证检验,其中支持与质疑的声音交错而至。1997年,在《世界政治》上,普沃斯基试图运用自二战以来的全球范围内的大数据,针对几十年来的争论进行计算,得出具有“一般性”的结论。他的研究结果显示,民主转型的发生与经济发展水平没有关系,但是如果经济发展水平较高的国家发生民主转型,民主得以巩固的概率更高。他甚至给出了精确的民主嬗变的经济指标。然而,这一基于全球样本的大数据似乎并没有让经济发展变量之于民主发展的“平均因果效应”一般化。对此,博伊克斯与司多科提出质疑。他们认为,普沃斯基的实证检验在案例选择、模型选定以及检验民主化的内生性等方面都存在问题,进而影响了最终因果关系的确立。他们将样本选取回溯到1850年,并考虑到其他他们认为可能引起民主的内生性变化的经济指标以及交互变量作用,包括资本流动与国际因素等。其最终结论认为,高水平的经济发展更利于民主转型。2006年,爱泼斯坦、拜茨等联合发文挑战普沃斯基的结论,认为现代化理论完全站得住脚。他们采用了全新的指标衡量民主,运用了新数据、全新的统计模型。从方法论的角度,我们至少看到以下两点。

第一,统计模型的稳定性实际上是相当脆弱的,样本选择、主要变量的衡量、统计模型的选择、模型运算过程中可能出现的统计学技术处理方式等都会直接干扰到模型最后的结论。稍有定量研究经验的学者都有这样的体会,很多情况下,模型加入的控制变量稍有变化,beta值及统计学的重要性就会产生剧烈变化。因此,实证检验过程中的技术稍有不过关,基于大数据得出的结论很可能就是个错误。专攻政治学方法论的学者们主要的任务之一就是通过复制数据、重新比对运算指出这一过程中的差错。因此,被认为是定量分析主要优势之一的可以将结论一般化,实际上需要建构在相当苛刻的条件之上。当然,定量研究遵循的是统计模型分析中被广泛认同的知识和惯例,实证检验的每一步骤的清晰表达使得研究的复制成为可能,但是每一个环节的稍有不同的处理方法都可能指向不同的结论。像普沃斯基的研究,我们很难说其存在明显的技术性谬误,或者说其后的批判者的统计学技术更高一筹。但应用了更多样本、看起来更合理的指标衡量及统计技术后,结论的确产生了根本性的变化。因此,定量研究可以一般化结论这个观点本身也是需要检验的。

第二,在运用统计模型进行计算的过程中,没有直接检验理论与所呈现的概念之间的因果关系,是针对定量研究比较普遍的批判。具体来说,量化模型对于解释因果关系是非常不充分的,因为统计模型本身并没有展示正向或反向的因果关系究竟是如何产生的。因此,绝大多数大样本量化的分析无法验证因果关系本身,验证的只是变量之间因果关系之后有可能呈现的结果。对“现代化理论”的检验最终在统计模型计算中转化为人均GDP与民主度之间的关系,但人均GDP是否意味着经济发展、社会结构变迁、民主意识抬升等还与民主化可能发生的路径相关联。例如,包括石油在内的自然资源丰富国家就成了所谓的例外。自然资源丰富带来的人均GDP的高指标与经济结构、市民社会等元素并不存在预设的关系,数据与具象化的政治演变路径脱节了。

总之,仔细考究定量研究的过程就会发现,它在导向一般化因果关系的道路上可谓磕磕绊绊,也正是在对这些定量研究所呈现问题的批判中,学者们看到了定性研究的长处以及可能的在定量定性研究之间取长补短的混合分析思路。

四、定性研究的优势以及混合研究法的提倡

早在20世纪70年代,利普哈特就给出了小样本研究面临的“太多变量,太少样本”(many variable,small number of cases)的著名论断,定量研究启用了以变量为导向的研究路径来解决这一难题。这些学者认为,小样本的研究可以弥补大样本研究的诸多缺陷,尤其是在因果关系的阐释与理论的建构当中。定性研究者甚至针对定量分析中数据的主导思路(data-set observation),给出了针锋相对的“因果过程观察数据法”(ca-usal process observation,CPO)。他们认为,案例以及比较分析能够更为深入地阐释概念进行描述性解释,从而为分析者提供探究“黑箱”之内事件的机会。更为重要的是,研究者对仅有的一个或几个案例数据更加容易做到了如指掌,可以更好地厘清变量之间相互作用的来龙去脉,更好地展现因果机制究竟如何切实发生在某个或几个案例当中。这一细致深入的挖掘过程还可能酝酿出其他合理的因果解释,提炼其他与案例背景相关的变量,分析可能存在的互动效应以及因果机制产生的必要条件,等等。总之,小样本定性研究能够产生对于理论假设以及数据之间更为近距离的透视,也能展示出变量互动中更精确的过程追踪。这样,对于大样本定量研究中概念过度延伸、统计模型中因果机制展示相对缺失的问题都可以得到一定程度的弥补与克服。

意识到这两种方法可能在理论的建构、概念的阐释以及结论的实证检验方面有互补作用后,学者们在反思定性研究的长处的同时,考虑到多元的方法论在政治学研究中的应用,也就是将定量与定性的研究结合起来共同解决所研究的问题。塔罗很快就表明这一方法论的立场,此后类似多元化方法论的倡导一直没有停止。大卫·拉汀认为,只有将形式理论(formal model)、定量、定性方法三者结合起来,方能给出最好的解释;盖瑞在指出案例研究的优势之后,提出了统一的定性定量方法论路径。尽管这些学者主张的混合分析法存在差别,但在融合定量与定性方法的整体方向上达成了共识。利普曼的“嵌套式的定量定性混合法”(nested analysis),精致地建构了混合分析法的具体操作步骤,成为最受欢迎的混合分析法的方法论文章之一。根据他的思路,定量定性方法可以进入分析的循环,既可以在定量大样本检验之后通过案例或比较分析来展示因果关系在具体案例中的作用机制(model testing),或通过对例外案例的深入考察建构新的理论(model-building),也可以在大样本分析并未呈现明显的一般性规律的情况下,通过案例分析直接考察因果关系,尔后进入新的大样本分析,如此循环。利普曼混合分析法的设计充分利用了定性与定量分析的优缺点相互弥补这一基本格局,因为可操作性强,迅速激活了学者的应用热情。

当然,对混合分析法的赞扬声中也夹杂着不少质疑的声音。这些学者主要是从哲学的角度质疑这两种分析方法在本体论与认识论层面的互补接洽问题,认为它们根本上属于不同的范式。但是,这样的质疑并没有阻挡混合分析法逐步被广泛接纳并迅速普及,推动其在技术层面更加趋于合理。新近发表的文章表明,学者们已经开始思考在纯粹的定量框架内通过定性的信息来加强因果解释。而且,这种方法论融合趋向不仅表现在定量定性混合法的逐渐流行上,更表现为对单一研究法的更多宽容。

五、结语

美国政治学协会从2003年起专门设立“定性与混合分析法”分支(Qualitative and Multi-Method Research,Section37)。这是在方法论基本一边倒的时期试图进行平衡的手段,至少表明政治学界已经在反思:政治学中无条件地运用定量方法最终可能破坏政治学研究本身。过去10年政治学方法论演进中的融合趋势是对这一反思的最好应和。实际上,这也与其他社会科学方法论的嬗变路径是吻合的。2007年,《混合研究法期刊》(Journal of Mi-xed Methods Research)诞生,成为方法论多元化趋势的标志性产物。对于定量研究尚在起步阶段的中国政治学界来说,洞察到国际政治学前沿方法论融合的趋势既是机遇也是挑战,无论是从事定性还是定量研究的学者,互相的借鉴以及多元的方法论训练如今看来已经不可避免。



【注:限于公众号的篇幅限制,省略了参考文献和注释,但不影响读者理解原文

原载于:《国外社会科学》2016年第4期,第130-137页

本文作者:祁玲玲,南京大学政府管理学院副教授

本期编辑:靳佑鼎


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存